Anthropic CEOの発言: 人類に脅威をおよぼすAIはいつくるか?
https://scrapbox.io/files/669dd9e1656fd0001cf01c26.png
ASL-4は、2025年から2028年のどこかで起こるのではないかと考えている。 私がこれについて考える一つの方法は、結局のところ、これは経済的圧力に反することを行うことに賛同する連合を形成する取り組みだということです。
そして、今「まあ、わかりません。これらのものは、将来的に危険かもしれません。私たちは指数関数的な成長の途上にいます」と言えば、それは単に難しいのです。数兆ドル規模の企業にとっては難しいです。軍の将軍に「わかりました、では私たちはこれをしません。他者に大きな優位性を与えることになるでしょう。でも、私たちはこれをしません」と言わせるのは確実に難しいです。
hiroya_iizuka.icon わかりやすい例え。経済的圧力と人類への脅威との天秤。
私が思うに、より説得力があるのは、業界全体で非常に限定的な方法で控えめにする決定を、特定の危険性と結びつけることです。議会での私の証言で、私は生物学のためのモデルの潜在的な誤用について警告しました。それは今日の状況ではありません。Googleで検索するのに比べてモデルにわずかな向上しかなく、多くの人々がそのリスクを無視しています。そして私にはわかりません - おそらく彼らは正しいのかもしれません。指数関数的なスケーリング法則は、彼らが正しくないことを示唆していますが、直接的な確固たる証拠はありません。
しかし、2025年になって、本当に恐ろしいものを実証したとしましょう。ほとんどの人々は、生物兵器を作り出せる技術が世界中に出回ることを望んでいません。そして、私はそういった瞬間に、本当に具体的にできるリスクに結びついた重要な連合が形成される可能性があると考えています。はい、常に敵対者もこれらの能力を持つだろうと主張されるでしょう。しかし、少なくともトレードオフは明確になり、賢明な政策のためのチャンスがいくらかあります。
明確にしておきますが、私はこの技術の利益がコストを上回ると考えている人間です。そして、責任あるスケーリング計画の全体的な考え方は、危険が現実のものである場合に、その主張をする準備をすることだと思います。危険が現実のものでなければ、私たちは単に進んで世界にとって素晴らしく、すばらしいものを作ればいいのです。そのため、これは両方の方向に柔軟に機能するのです。
繰り返しますが、これが完璧だとは思いません。私は、規制の枠組みをすべて整えたとしても、私たちが行うことで、そう大きく減速できるとは思いません。しかし、ここで賢明な道筋を導く最良の方法は何かと考えたとき、これが今のところ私が思いつく最も近いものです。おそらく、どこかにもっと良い計画があるでしょうが、これが今のところ私が考えた最良のものです。
参考文献